AI PC 人工智慧 神兵利器
-
NVIDIA 執行長表示將把人工智慧帶入各產業
ChatGPT 才只是開始而已。 隨著如今運算技術出現他所說的「光速」發展速度,NVIDIA 創辦人暨執行長黃仁勳今日宣布與 Google、微軟、Oracle(甲骨文)及多家重量級企業展開更大規模的合作活動,將為各行各業帶來嶄新的人工智慧、模擬及協作能力。 黃仁勳在 NVIDIA 的 GTC 大會主題演講中表示:「曲速引擎是加速運算,而它的能量來源正是人工智慧。生成式人工智慧的出色能力,讓各大企業開始對於重新構思產品和商業模式有了迫切感。」 黃仁勳發表了長達78分鐘的主題演講,替為期四天的 GTC 大會揭開序幕,演講中介紹了 NVIDIA 與合作夥伴如何為尖端人工智慧服務提供從訓練到部署的各項內容。他宣布推出新款半導體和軟體庫,以協助推動新的突破研究成果。黃仁勳還宣布將推出一整套系統和服務,供全球競相落實這些創新項目的新創公司及企業使用。 黃仁勳不時在演講中用生動的例子,說明這個生態系統所扮演的角色。他宣布 NVIDIA 與微軟將把數億名Microsoft365 及 Azure 使用者與用於建立及運作超現實虛擬世界的平台連結起來。他帶領觀眾們瞭解 Amazon(亞馬遜)如何使用複雜的模擬能力來訓練新式自主倉庫機器人。他也在演講中談到 像是ChatGPT 這類新一代大受歡迎生成式人工智慧服務的出現。 黃仁勳在強調 NVIDIA 進行創新的基礎本質時,詳細介紹了NVIDIA 在運算微影技術的突破性成果,是如何與 ASML、台積電及 Synopsis 合作打造出新一代高效強大的2奈米半導體。 黃仁勳表示加速運算與人工智慧來的正是時候,隨著摩爾定律的放緩,各行各業都在因應永續發展、生成式人工智慧及數位化這些強大驅動市場前行的動能所帶來的挑戰。「工業領域裡的業者爭相進行數位化,將自己重新塑造為軟體驅動的科技公司- - 企圖成為顛覆市場的人,而非被市場顛覆的人。」黃仁勳說。 加速運算技術可以協助這些業者因應這些挑戰。黃仁勳說:「加速運算是減少用電量、達到永續發展及淨零排放目標的最佳途徑。」 走過十四個年頭的 GTC 大會,儼然成為全球最重要的人工智慧盛會之一。本週的 GTC 大會共有650場講座,特別力邀 DeepMind 的 Demis Hassabis、阿貢國家實驗室的 Valeri Taylor、Adobe 的 Scott Belsky、Netflix 的 Paul Debevec、蘇黎世聯邦理工學院的 Thomas Schulthess 等重量級貴賓,以及黃仁勳與 OpenAI 的共同創辦人,也是建立 ChatGPT 的 Ilya Sutskever,進行一場特別的爐邊談話。 有超過25萬人報名參加今年的 GTC 大會,將能夠深入探討從修復兩千年前遺失的羅馬馬賽克圖案,到打造未來工廠;從使用新一代大型望遠鏡探索宇宙,到重新排列分子以加速藥物發現,以及超過七十場關於生成式人工智慧的演講。 NVIDIA 的技術是發展人工智慧的基礎,黃仁勳講述了 NVIDIA 如何在生成式人工智慧革命的初期便參與其中。他早在2016年便親手將第一台 NVIDIA DGX 人工智慧超級電腦交給 OpenAI,這是用於在背後支持 ChatGPT 這項大型語言模型出現突破性成果的引擎。 去年底甫亮相的 ChatGPT,幾乎瞬間成為市場當紅主流,吸引超過一億人使用,成為史上成長速度快的應用程式。「我們正處於人工智慧的 iPhone 時刻。」黃仁勳說。 黃仁勳表示 NVIDIA DGX 超級電腦一開始是當成研究人工智慧的工具,如今全球各地的企業一整天都在運行這具超級電腦,以完善資料和處理人工智慧。財富100強(Fortune 100)排行榜中有半數的企業都裝有 DGX AI 超級電腦。 「DGX超級電腦是現代人工智慧工廠。」黃仁勳說。 用於資料中心的 NVIDIA H100、Grace Hopper、Grace 黃仁勳表示部署像 ChatGPT 這樣的大型語言模型,是一新式的、相當重要的推論工作負載。黃仁勳宣布針對像是ChatGPT 這樣類型的大型語言模型推論作業推出新款 GPU,即擁有雙 GPU NVLink 的 H100 NVL。 採用 NVIDIA Hopper 架構的 H100 具有一個 Transformer引擎,用於處理像是支援 ChatGPT 的 GPT 等模型。與用於處理 GPT-3 的 HGX A100 相比,一台搭載四對 H100 及雙 GPU NVLink 的標準伺服器,其處理速度最高可提升十倍。 「H100 可以將處理大型語言模型的成本降低一個數量級。」黃仁勳說。 黃仁勳表示同時在過去十年裡,雲端運算市場的規模每年成長20%,產業市值達到一兆美元。NVIDIA 設計用於人工智慧及雲端優先環境的 Grace CPU,由 GPU 加速執行各項人工智慧工作負載。黃仁勳說現正將 Grace 的樣品送給各大廠商進行測試。 NVIDIA 的新款超級晶片 Grace Hopper,以每秒 900GB 的高速一致性晶片到晶片(chip-to-chip)介面連接 Grace CPU 和 Hopper GPU。黃仁勳說 Grace Hopper 是處理用於推薦系統的人工智慧資料庫,還有大型語言模型這一類海量資料集的理想選擇。 黃仁勳說:「客戶想要把人工智慧資料庫擴大幾個數量級。Grace Hopper 是理想的引擎。」 最新版的 DGX 搭載八個 NVIDIA H100 GPU,這八個 GPU 連在一起變成一個巨大的 GPU 來處理各項工作。黃仁勳說:「NVIDIA DGX H100 是全球客戶建造人工智慧基礎設施的藍圖。」,並且分享 NVIDIA DGX H100 現已全面投產。 H100 人工智慧超級電腦已經上線。Oracle Cloud Infrastructure 宣布限量推出搭載 H100 GPU 的新式 OCI Compute 裸機 GPU 執行個體。 此外,Amazon Web Services 宣布即將推出 P5 執行個體的 EC2 UltraClusters,其規模可以擴大到兩萬個互連的 H100 GPU。 微軟 Azure 才在上週宣布推出 H100 虛擬機器 ND H100 v5 的非公開專屬預覽活動。 Meta 在公司內部部署了供人工智慧生產和研究團隊使用、搭載 H100 的 Grand Teton AI 超級電腦。 OpenAI 將在其 Azure 超級電腦上使用 H100,以持續支持其人工智慧研究。 其他提供 搭載H100雲端平台服務 的合作夥伴還有 Cirrascale 及 CoreWeave,這兩家公司今天都宣布全面提供。此外,Google Cloud、Lambda、Paperspace 及 Vult 計畫推出搭載H100的雲端平台。 各大伺服器製造商現已開始提供搭載 NVIDIA H100 GPU 的伺服器和系統,這些業者有源訊(Atos) 、思科系統(Cisco) 、戴爾科技集團(Dell Technologies)、技嘉科技、慧與科技公司(Hewlett Packard Enterprise)、聯想集團 (Lenovo)及 美超微電腦 (Supermicro)。 黃仁勳宣布推出 NVIDIA DGX Cloud,與微軟 Azure、Google Cloud 及 Oracle Cloud Infrastructure 合作,「每間公司只要簡單透過網路瀏覽器就能使用 NVIDIA DGX AI超級電腦」,讓那些爭相打造新產品及制定人工智慧策略的新創公司和企業可以更快取得 DGX 的強大實力。 完成最佳化調整的 DGX Cloud 可以運行 NVIDIA AI Enterprise,這是獨步全球的加速軟體套件,用於端到端的人工智慧開發和部署作業。「DGX Cloud 把 NVIDIA AI 技術的精華,還有全球各大雲端服務提供商的優點都交到客戶的手上。」黃仁勳說。 NVIDIA 與各大雲端服務提供商合作託管 DGX Cloud 基礎設施,由 Oracle Cloud Infrastructure 搶得頭香。微軟 Azure 預計將在下一季開始託管 DGX Cloud,Google Cloud 等其他業者將隨後跟上。 黃仁勳表示這項合作關係將 NVIDIA 的生態系統帶給雲端服務提供商,又擴大了 NVIDIA 的規模和接觸範圍。企業將能夠按月租用 DGX Cloud 叢集,確保他們可以輕鬆快速地調整發展大型多節點訓練工作負載的規模。 黃仁勳宣布推出 NVIDIA AI Foundations 雲端服務系列,供需要建立、完善和操作自訂大型語言模型,以及使用專有資料來訓練生成式人工智慧以執行特定領域任務的客戶使用,讓想要利用生成式人工智慧的人可以加速執行各項工作。 AI Foundations 服務包括用於建立自訂語言文字轉文字生成式模型的 NVIDIA NeMo;Picasso 視覺語言模型製作服務,適用於想要建立用取得授權或專有內容來訓練自訂模型的客戶;以及 BioNeMo,供市值兩兆美元藥物發現產業的研究人員使用。 Adobe 與 NVIDIA 合作打造一套適用於未來創意人的下一代人工智慧功能。 Getty Images 與 NVIDIA 合作訓練開發負責任的生成式文字轉圖片及文字轉影片基礎模型。 Shutterstock 與 NVIDIA 合作訓練一個生成式文字轉 3D 的基礎模型,讓建立精細 3D 資產的工作變得更簡單。 NVIDIA 宣布 Amgen(安進)將使用 BioNeMo 加快推動藥物發現服務。Alchemab Therapeutics、AstraZeneca、Evozyne、Innophore 及 Insilico 也都是搶先試用 BioNemo 的客戶。 黃仁勳說 BioNeMo 幫助研究人員用他們自己的專有資料來建立、微調和自訂模型。 黃仁勳另宣布 NVIDIA 與全球最大的醫療科技提供商 Medtronic(美敦力)合作,為軟體定義的醫療設備建立人工智慧平台。這項合作關係將為 Medtronic 旗下的手術導航,以及機器人輔助手術等系統建立一個通用平台。 Medtronic 今日宣布該公司使用 NVIDIA Holoscan 打造出的 GI Genius 系統,透過人工智慧對大腸結腸癌進行早期檢測。NVIDIA Holoscan 是用於即時感測器處理系統的軟體庫,將於今年底左右出貨。 「全球市值2500億美元的醫療儀器市場將進行轉型。」黃仁勳說。 黃仁勳宣布推出用於人工智慧影片、影像生成、LLM 部署及推薦系統推論作業的推論平台,以幫助企業部署快速興起的生成式人工智慧模型。在這個平台中結合了 NVIDIA 推論軟體的完整堆疊和最新的 NVIDIA Ada、Hopper 及 Grace Hopper 處理器,包括今日推出的 NVIDIA L4 Tensor 核心 GPU 與 NVIDIA H100 NVL GPU。 ● 用於人工智慧影片的 NVIDIA L4,其製作人工智慧影片的效能較 CPU 多出120倍,能源使用效率也提高99%。 ● 用於影像生成的 NVIDIA L40 針對繪圖及人工智慧生成的 2D、影片和 3D 影像進行了最佳化調整。 ● 用於部署大型語言模型的 NVIDIA H100 NVL 是大規模部署像是 ChatGPT 這類大型語言模型的理想選擇。 ● 用於推薦模型的 NVIDIA Grace Hopper 是圖形推薦模型、向量圖形資料庫及繪圖神經網路的理想選擇。 Google Cloud 是率先將 L4 提供給客戶的雲端服務提供商,推出了新款 G2 虛擬機器,今日起開放非公開專屬預覽活動。Google 也將在 Vertex AI 模型商店中加入 L4。 黃仁勳在公布第二項雲端服務,讓企業更快取得前所未有的模擬及協作能力時,宣布 NVIDIA 將與微軟合作,讓全球各行各業可以使用到 NVIDIA Omniverse Cloud 這項完全託管的雲端服務。 黃仁勳表示:「微軟與 NVIDIA 將合作讓數億名Microsoft 365 和 Azure 用戶可以使用到 Omnivese。」他還公布新款 NVIDIA OVX 伺服器與新一代工作站產品,在這些產品上搭載了 NVIDIA RTX Ada Generation GPU 及 Intel 針對 NVIDIA Omniverse 進行最佳化的最新款 CPU。 黃仁勳為展示 NVIDIA 替 3D 設計協作和數位孿生模擬而打造的開放式 Omniverse 平台出色功能,透過一支影片展示建立在 Omniverse 上的 NVIDIA 機器人模擬和合成生成平台 NVIDIA Isaac Sim,如何製作出極具真實感的數位孿生模型,協助用戶節省寶貴的金錢和時間。 在這支影片中可以看到 Amazon(亞馬遜)如何努力編排 Amazon 首個全自主倉庫機器人 Proteus 的動作,它在 Amazon 寬敞的倉庫中與人類及其他機器人共同將一箱箱產品從一處搬到另一處。 黃仁勳深入介紹 Omniverse 在帶領市值三兆美元之汽車產業進行數位化的過程中所扮演的角色,讓更多人明白 Omniverse 的影響力和能力。黃仁勳表示到2030年之際,汽車製造商將建造出三百座工廠,生產兩億輛電動車,而電池製造商正在興建百座巨型工廠。「數位化將提高產業的效率、生產力和速度。」黃仁勳說。 在談到整個車業使用 Omniverse 的情況時,黃仁勳表示吉利路特斯(Geely Lotus)使用 Omniverse 來開發虛擬的裝配焊接站。Mercedes-Benz 使用 Omniverse 為新車款建立、最佳化及規劃裝配線。Rimac 與 Lucid Motors 使用 Omniverse 使用實際的設計資料來建立數位商店,原原本本地表現車款的樣子。 BMW 與 Idealworks 合作使用 Omniverse 中的 Isaac Sim,產生各種合成資料和情境來訓練工廠機器人。黃仁勳說 BMW 使用 Omniverse 來規劃全球各處工作的運作,另外還在工廠落成啟用前,以兩年時間完全在 Omniverse 中規劃一處新的電動車工廠。 NVIDIA 此外今日還宣布領先全球的新能源車(NEV)製造商比亞迪,將擴大把 NVIDIA DRIVE Orin 集中運算平台用在旗下更多的 NEV 車款。 由於當前的半導體製程已接近物理學的極限,黃仁勳宣布推出 NVIDIA cuLitho,這項突破性技術將加速運算技術用於運算光刻領域,能夠幫助 ASML、台積電與 Synopsis 等半導體領導業者加速推動設計與製造出新一代的晶片。 全球最大的晶圓代工廠台積電與電子設計自動化領導業者 Synopsys,將用於運算微影技術的全新 NVIDIA cuLitho 軟體庫加入其最新一代 NVIDIA Hopper 架構 GPU 的軟體、製程及系統中。 晶片製造設備供應商 ASML 與 NVIDIA 就 GPU 及 cuLitho 進行密切合作,並且打算讓旗下每一款運算微影軟體產品開始支援 GPU。黃仁勳表示由於微影技術處於物理學的極限,NVIDIA 推出的 cuLitho 將使得半導體業能夠產生出2奈米及更先進的半導體。 「晶片業幾乎是各行各業的基礎。」黃仁勳說。 全球各大企業紛紛挺身支持黃仁勳的遠大願景。 電信巨頭 AT&T 使用 NVIDIA AI 以提高處理資料的效率,且正在測試 Omniverse ACE 和 Tokkio 人工智慧虛擬化身工作流程,為客服部門和員工服務台建立、自訂及部署虛擬助理。 美國運通、美國郵政署、Microsoft Office 和 Teams,以及 Amazon 等四萬名客戶,使用高效能 NVIDIA TensorRT 推論優化器和運行時,還有多框架資料中心推論服務軟體 NVIDIA Triton 來促進其工作效率。 Uber 使用 Triton,每秒預測數十萬次預計抵達時間(ETA)。 每天擁有超過六千萬名活躍用戶的 Roblox,使用 Triton 來提供遊戲推薦模型、建立數位分身,以及管理內容和市場廣告。 微軟、騰訊與百度都在人工智慧電腦視覺作業方面開始使用 NVIDIA CV-CUDA。NVIDIA CV-CUDA 技術現為公測階段,針對前製及後製作業進行最佳化調整,有助於省下四倍的成本及能源使用量。 黃仁勳在主題演講的尾聲,對 NVIDIA 的系統、雲端及軟體合作夥伴,以及所有研究人員、科學家和員工表達謝意。 黃仁勳宣布 NVIDIA 已經更新了100個加速庫,包括用於量子計算的 cuQuantum 和全新開放原始碼的 CUDA Quantum、用於組合最佳化的 cuOpt,以及用於運算光刻技術的 cuLitho。 黃仁勳表示 NVIDIA 的全球生態系統現有四百萬名開發人員、四萬家公司加入,而 NVIDIA Inception 計畫則有1.4萬間新創公司加入。 黃仁勳說:「如此龐大的生態系統將協助全球各個領域把不可能化為可能。」 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
NVIDIA 攜手 Google Cloud 開發大型語言模型和生成式人工智慧推論模型
NVIDIA宣布將與 Google Cloud 合作,以加速推動各行各業打造近期快速增加的生成式人工智慧應用程式。 這項合作將讓開發人員可以取得最新式、最先進的技術,幫助他們快速以符合成本效益的方式啟動和運行新的應用程式。這包括採用 NVIDIA剛發布的 L4 GPU 的全新生成式人工智慧推論平台,而 L4 GPU 是一款適用於幾乎所有工作負載的通用型 GPU,擁有更強大的人工智慧視訊功能,可提供較 CPU 高出120倍的人工智慧視訊效能,且能源使用效率也提高99%。 Google Cloud 是第一個提供客戶使用 L4 的雲端服務供應商,該平台推出新款 G2 虛擬機器,於今日開放非公開專屬預覽。Google Cloud 還會將 L4 用在旗下的 Vertex AI 機器學習平台。 NVIDIA 超大規模與高效能運算部門副總裁 Ian Buck 表示:「市場在短時間內對生成式人工智慧產生濃厚興趣,激發新一波公司改採雲端運算技術來支援其商業模式的浪潮。我們與 Google Cloud 合作來確保這些公司可以輕鬆獲得所需的功能,且能夠幫助推動他們將建立的新工具和應用程式。」 Google Cloud 系統與服務基礎設施部門副總裁 Amin Vahdat 表示:「生成式人工智慧代表了一個新的運算時代——在這個時代裡,我們需要在 Google Cloud 上提供人們所需的速度、擴充性和可靠性。隨著客戶開始探索生成式人工智慧的可能性,我們很自豪地在工作負載最佳化的 Compute Engine 產品組合中,將 NVIDIA 最新的 L4 GPU 創新技術提供給客戶。」 Google Cloud 為提供生成式人工智慧應用程式的各個組織提供基礎設施,其中許多基礎設施用於幫助專業人士更好更快地完成工作。快速推論能力正是讓他們順利運行應用程式的關鍵。 Descript 的軟體讓建立影片或 podcast 內容,就像編輯文件或製作投影片一樣簡單。Descript 將軟體託管在 Google Cloud 上且利用 NVIDIA 的工具套件,讓 podcast 創作者、影片創作者、行銷人員、訓練人員及任何想要透過影片來傳遞資訊的人,都能利用人工智慧的強大力量。 創作者使用 Descript 的人工智慧編輯功能,只要點幾下就能刪除填充詞、加入字幕及製作用於社群媒體的短片。或是創作者使用 Descript 的生成式人工智慧語音複製功能,只要打幾個字就能修復音訊錯誤,甚至是建立完整的旁白音軌。 Descript 執行長 Andrew Mason 表示:「Descript 使用 NVIDIA TensorRT 來將模型調整至最佳狀態,以加快進行人工智慧推論的速度。沒有攝影棚的用戶可以使用 Descript 的功能來更換影片背景和增強語音內容,以製作出媲美攝影棚品質的內容。」 生成式人工智慧還推動一些幫助人們聯繫和享樂的新款應用程式誕生。推出名為 Dream 這項人工智慧文字轉數位藝術應用程式的 WOMBO,已經搶先在 Google Cloud 上使用 NVIDIA 的 L4 推論平台。 WOMBO 執行長 Ben-Zion Benkhin 表示:「WOMBO 靠著最新的人工智慧技術,讓人們根據用戶的提示內容創作出沉浸式數位藝術作品,只要一個想法就能用任何風格創作出高品質又極具真實感的藝術作品。NVIDIA 的 L4 推論平台讓我們能夠替想要創作和分享獨特藝術作品的用戶,提供更美好、更高效的影像生成體驗。」 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
前進Embedded World!華碩AI新解方加速產業數位轉型
全球最大嵌入式電子與工業電腦應用展(Embedded World),昨起於德國紐倫堡盛大登場,華碩智慧物聯網(ASUS IoT)以「加速數位轉型」為題,展出全方位邊緣AI電腦、工業主機板、COM Express(COMe)模組、Tinker系列單板電腦(SBC)、迷你電腦(Mini PCs)與多項人工智慧(AI)解決方案,提供完整軟硬體設備及整合服務,促進產業升級,提升AIoT成長動能。 本次最大亮點為三款最新邊緣AI電腦PE3000G / PE4000G / PE6000G,搭載第12代Intel Core處理器,輕鬆滿足高算力需求GPU;其中,PE6000G更是業界首款支援高達450W TDP GPU的工業用邊緣AI電腦,擁有驚人的PCIe 5.0高頻寬圖形處理效能;PE3000G為新款無風扇嵌入式邊緣電腦,可與NVIDIA Ampere / Turing或Intel Arc A系列(A350M / A370M / A550M / A730M)MXM GPU整合;PE4000G則能支援200W TDP GPU和兩組PCIe擴充卡;全系列產品皆可承受極端作業環境,包括:劇烈溫度變化、寬壓輸入與高振動,加上64GB DDR5 4800MHz內存、無風扇設計,以及符合MIL-STD-810H軍規認證,再嚴苛的應用場域都沒問題,例如:機器視覺、智能影像分析與工業環境無人車等。 會中華碩也同步發表Tinker家族新力軍:Tinker Board 3系列 / Tinker V與開放式架構(Open Frame)觸控電腦,強攻工業自動化、物聯網應用。 搭載嵌入Tinker Board 3系列的開放式架構觸控電腦,適用人機介面HMI、KIOSK、電子看板與多樣工業物聯網(IIoT),PP-101W-3568和PP-156W-3568兩款機種另分別具備10.1吋 / 15.6吋投射式電容(PCAP)觸控螢幕,搭配開放式邊框,客製更容易;無風扇設計和低功耗CPU,則確保產品擁有絕佳可靠性和耐用性。 Tinker Board 3系列為小巧型單板電腦,採用四核心Cortex-A55的64位元Arm架構,並支援Linux(Yocto、Debian)與Android作業系統,同時具備長達7年供貨保證,以及豐富連接埠,實現卓越的可擴充性,包括:PoE、LVDS、COM、CAN,還有相容無線或4G / 5G連網的M.2 E和M.2 B擴充槽。 此外,華碩亦亮相首款64位元RISC-V SBC Tinker V,採用開源架構,為工業物聯網開發者提供更多新選擇。 華碩支援最新第13代Intel處理器的工業主機板,共有兩大系列,並包含ATX、Micro ATX、ITX、Thin ITX等完整尺寸,其中IM系列高度耐用,無論在極端溫度的作業環境或使用壽命,表現均相當出色;EM系列則可支援標準工作溫度,性價比高。同時,華碩也推出ASUS IoT Configure-to-Order Service (ASUS IoT CToS)服務,由專業研發團隊進行快速評估、送樣,為客戶縮減產品上市時程。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
AWS強大雲端運算力,突破生成式AI發展瓶頸
Amazon Web Services(AWS)長期深耕生成式人工智慧(Generative Artificial Intelligence)領域,擁有成熟的生成式AI創新技術與專屬的產業解決方案,不僅提供經廣泛驗證且易於部署的先進AI預先訓練模型,並藉由豐富且高性價比的雲端資源以優化成本,大力協助遊戲、電商、媒體、影視、廣告、傳媒等產業快速建構生成式AI應用,進一步打造AI時代的領先生產力。AWS將於3月16日舉辦AI/ML人工智慧及機器學習解決方案日,由AWS技術專家群共同分享與展示最熱門的AI/ML關鍵技術,如生成式AI、大語言模型(LLM)、Low Code/No Code等創新趨勢,助力台灣企業抓住機遇,再創業務高峰。 AWS台灣暨香港產品部總監翁宇強表示,「從AI技術發展來看,生成式AI開啟了一次典範轉移( Paradigm Shift )。大模型、多模態、高產能和海量資料將主導新一輪科技典範的發展,為內容、行銷、遊戲等行業帶來顛覆性創新。AWS廣泛而深入的生成式AI專屬解決方案,以最先進的效能、更優異的性價比和全面的服務應用賦能各行各業,助力各種規模的企業擁抱生成式AI的浪潮。」 目前生成式AI模型除了大眾熟知的文本和圖片生成,亦包含音訊和影片內容生成,未來將出現越來越多不同種類的生成內容。對企業而言,針對特定場景所建置的模型在成本和準確度都更具優勢,也是目前企業主要採用的模型。晶片效能和高品質訓練是生成式AI爆發的基礎,也是實現大規模發展的瓶頸。以往模型的參數量級可能僅是千級或百萬級,但現今擁有十億百億級參數的模型比比皆是,下一代模型甚至很有可能會朝著萬億級參數級別去發展。因此,降低大規模模型的成本便顯得至關重要。 然而,即使機器學習的晶片約每兩年就會有一倍或數倍的提升,仍然不足以跟上日趨複雜的訓練模型。替代的解決辦法就是利用分散式多處理器,透過一個網路進行協同運算、協同訓練。AWS專門為雲端中高效能模型訓練而搭建的Amazon EC2 Trn1執行個體,最多可以搭載16顆專門用於機器學習訓練的Trainium晶片,512GB加速器記憶體和800GBps的網路頻寬。 Trn1是擁有高性價比的深度學習執行個體,與基於GPU的類似執行個體相比,訓練成本大幅降低了50%。以一個具備萬億級參數的大模型進行兩周訓練為例,GPU伺服器P3dn需要600個執行個體,最新一代GPU執行個體P4d需要128個執行個體,但Trn1僅僅只需使用96個執行個體便能達成。 2022 AWS re:Invent全球大會推出了一款基於Trn1的網路優化型執行個體Trn1n,進一步把網路頻寬增加一倍,從800GBps躍升到1600GBps,其強大的網路傳輸能力能夠將超過1萬個Trainium晶片建構在一個超大規模叢集裡,並在叢集中進行模型的並行訓練。 除了訓練外,大模型也需要超高的推論能力。因此,AWS建構了Inf1執行個體,用自研的推論晶片Inferentia提供支援,實現低延遲、低成本的推論。Inf1執行個體和GPU的執行個體相比,每次推論成本可以大幅降低70%。 去年底AWS re:Invent全球大會還推出了下一代自研推論晶片Inferentia2,以及基於此的Inf2執行個體,這是唯一一個專門為大型Transformer模型分散式推論建立的執行個體。與Inf1執行個體相比,它提供高達4倍的輸送量,降低多達10倍的延遲。與基於GPU的執行個體相比,每瓦效能提升高達45%,同時也支援諸如GPT類型的大型複雜模型,並且可以用單執行個體實現1750億參數模型的推論。 AWS日前也宣佈與AI技術公司Hugging Face進一步合作,以加速對大語言模型和視覺模型的訓練、微調和部署,使用者能更輕鬆優化效能並降低成本,從而更快地將生成式AI應用投入到生產環境。欲瞭解更多AWS生成式AI相關資訊,請至此連結。 設計和開發體驗管理軟體公司Qualtrics核心機器學習負責人Aaron Colak表示,「Qualtrics的重點是借助技術創新縮小體驗差距。為了實現這一目標,我們正在開發複雜的多工、多模態的深度學習模型,包括文本分類、序列標記、論述分析、關鍵短語擷取、主題擷取、聚類以及端到端對話理解等。隨著我們在更多應用程式中使用這些複雜的模型,以及非結構化資料量不斷增長,為了提供客戶最佳體驗,我們需要效能更高的推理優化解決方案,如Inf2執行個體來滿足我們的需求。我們很高興看到新一代Inf2執行個體的推出,它不僅讓我們實現更高的輸送量,同時也顯著降低延遲,而且還引入了分散式推理和支援增強的動態形狀輸入等功能。隨著我們部署更大、更複雜的模型,這都將能進一步滿足我們對任何部署的更高要求。」 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
AI運算浪潮帶動板卡、高效能運算需求 友通審慎樂觀看待上半年表現
全球嵌入式主機板及工業電腦領導品牌友通資訊(2397)今日舉行線上法說會說明表示,2023上半年友通Embedded(嵌入式事業)受惠於缺料緩解及各區域市場需求強勁,有望較去年同期表現亮眼並期待逐季成長。展望上半年,雖產業成長動能受國際經濟因素及庫存調整等影響而趨緩;但受惠於全球新基礎建設的剛性需求,以及AI運算浪潮帶動板卡、高效能運算需求,友通審慎樂觀看待後市表現。 友通去年營收、營業毛利、營業利益三指標同步成長,營收與毛利更是再創歷史新高,全年合併營收161.90億元,年增22%;營業毛利32.82億元,年增29%;營業利益7.31億元,年增39%。而據目前接單狀況來看,今年友通Embedded第一季營運將有機會較去年同期表現佳。 展望後市,友通副董事長李昌鴻表示,雖上半年產業成長動能受全球性高通膨、貨幣政策及庫存調整等影響而趨緩,但預期美國將視就業及通膨數據逐步調整升息政策、加上歐洲通膨降溫與中國疫情緩解,產業動能可望復甦。在新基建、能源轉型及設備自動化的需求下,友通訂單有機會逐月增加;有感於ChatGPT近期所掀起的生成式AI運算浪潮,軟硬體需求增溫,長期投入在嵌入式板卡、網安、工業自動化、高效能運算等四大應用領域中的友通可望擁有優勢。 友通總經理蘇家弘表示,友通Embedded表現受惠於缺料緩解及各區域市場的新基建需求明確、強勁,2023上半年有望較去年同期表現亮眼,且期待逐季成長。整體訂單交貨狀況方面,則受去年年底中國疫情封控而影響拉貨,造成客戶延單問題;但隨著中國解封,庫存壓力有望好轉,友通將持續優化庫存水位,針對工具機的需求將持續審慎因應,逐步走出調整期。 隨著企業數位轉型的趨勢,友通將透過「智慧新工廠」、「AIoT人工智能物聯網產品線」與「彈性穩定的供應鏈布局」等三大營運策略,從設計到生產端,實施全面的製程及品質管理,提供整合解決方案並實現卓越的產品性能與穩定的供應服務,一起為客戶創造最大的價值,成為企業OT智能化最佳夥伴。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
IPEVO 雙 AI 技術 TOTEM 120 多模式協作攝影機重磅上市
ChatGPT 熱潮帶動 AI 成為近期最熱關鍵字!各類型企業紛紛透過 AI ,探索無限可能,全球專業視訊溝通領導品牌 IPEVO 愛比科技(股票代號:6858)今(10)日正式宣布推出 IPEVO TOTEM 120 多模式協作攝影機,結合 AI 人像自動取景與 AI Voice 降噪等雙人工智慧技術,搭載 120° 廣角鏡頭及 80° 自動對焦鏡頭,雙鏡頭讓使用者在「會議」、「文件」與「分享」三大模式中,皆能遠距溝通無礙。此外, TOTEM 120 更獲得享譽國內外盛名的台灣精品獎與日本優良設計獎(Good Design Award)及國際多項科技獎項的肯定,透過對使用者友善、輕巧的設計與完善的功能,助專業工作者打造全方位混合溝通與會議體驗。 愛比科技總經理李信宜表示:「 IPEVO 實物攝影機過去已於全球市場取得佳績,本次推出的 TOTEM 120 多模式協作攝影機,便以我們備受歡迎的實物攝影機為基礎,導入 AI 技術、並加入混合溝通新時代必備的視訊會議和線上分享功能,是專業工作者的最佳選擇。使用者只要一機在手,在不同情境中都能延續沉浸式溝通體驗並呈現出最好的表現,更輕鬆地取得高效生產力。」 TOTEM 120 的設計核心為其靈活的支架設計,以潛水艇潛望鏡為靈感,能夠輕鬆調整鏡頭至不同角度。此多模式協作攝影機內建 120° 超廣角和 80° 自動對焦雙鏡頭,讓使用者能依照情境在「會議」、「文件」、「分享」三種不同的模式下彈性切換,一機在手就能因地制宜選擇所需的溝通模式。 TOTEM 120 適用於小型會議空間,主打兩大 AI 強化技術,讓使用者在視覺與聽覺上都能有更極致和智慧的感官體驗。其中 AI 人像自動取景功能可依據會議人數,自動將所有與會者框入畫面中。 AI Voice 降噪功能則利用 IntelliGo 抗噪技術晶片與內建全指向麥克風,有效收音距離達 3 公尺,以 AI 人聲加強技術,透過 AI 學習超過五億筆人聲,濾除大部分背景環境噪音,留住最清晰的人聲,讓使用者從背景吵雜的開放空間到安靜的小型會議室,都能隨處進行會議。 當專業工作者進行「會議模式」時,可以利用 TOTEM 120 滑軌支架將視訊鏡頭調至適合的視角,傳神表達眼神交流與互動,不只升級視訊溝通品質,更增進溝通的效率與凝聚情感。而當會議進行到一半,需要透過更多圖像示意或資料解釋時,「文件模式」可讓使用者將機身向下調整至 90° 視角,並選擇 80° 自動對焦鏡頭,即時分享書本或文件等靜態資料,大幅減少因事前掃描、準備資料的前置作業時間、同步降低在會議中因切換畫面而容易造成視訊會議溝通上的干擾與中斷,適用於深度溝通與會議即席討論。 此外,在視訊互動時除了分享靜態文件外,也常有動態展示的需求,如教學步驟的即席演練或是物品的說明等。TOTEM 120 的「分享模式」讓使用者可將隨時將鏡頭調整至 45° 傾斜視角,分享者不會受到鏡頭角度的限制,可以自然的姿勢與角度進行分享與演示,讓視訊溝通更貼近現場面對面教學的效果。 機身輕薄僅 1.5 公分、重量只有 450 公克的 TOTEM 120 具有隨插即用的 USB-C 介面,大幅降低使用門檻,也便於專業工作者隨身攜帶。此外,TOTEM 120 更橫掃海內外多項大獎,包含榮獲具有台灣產業界的奧斯卡獎項美名的「台灣精品獎」,在電子電器 & 通訊精品類別榮獲 2022 年得獎產品。此外,更走出國際,獲得 2022 年享譽國際盛名的優良設計獎(Good Design Award) ,也在 2023 年度美國消費性電子展 CES 上由 TWICE 與 TechRadar Pro頒布的年度最佳科技選品大獎(Pick Awards)、以及由 TMCnet 頒發的卓越視訊會議獎(Video Conferencing Excellence Award)。 TOTEM 120 多模式協作攝影機即日起將在台灣各大零售通路販售,建議售價為新台幣 9,990 元。消費者欲了解更多 TOTEM 120 相關資訊,請參考IPEVO官方網站,或經由代理商正成貿易的 CS Emart、經銷商佳能國際的官方網站,以及多個電商通路 momo購物網、PChome 24H購物 、蝦皮購物、Yahoo奇摩購物中心等平台購買。建議可搭配AI 智能視訊應用軟體 EyeStage™ 強化視訊溝通體驗。EyeStage軟體即日起可於IPEVO官方網站免費下載。 ● 台灣設計、台灣製造。 ● 內建 800 萬畫素高畫質雙鏡頭模組,120° 超廣角鏡頭與 80° 自動對焦雙鏡頭,輕鬆適用於各種不同會議情境與文件分享 。 ● 具有 AI 降噪功能全向性收音麥克風 ,最佳收音距離長達 3 公尺。 ● 機身重量為 450 公克,體積輕巧可隨身攜帶。 ● 相容於 MacOS、Windows 作業系統及 Chromebook with USB-C port。 ● 相容於 Zoom、Google Meet、Microsoft Teams、Webex、Skype、GoToMeeting 與其他視訊會議軟體。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
全球首例教育應用!微軟Azure OpenAI服務拓展英語教育前景
台灣位居國際供應鏈要角,為滿足產業對全球化人才需求,政府積極推動 2030 雙語政策,全力挹注教學資源,強化台灣學子英語實力,儲備國際競爭力。由教育部委由國立台灣師範大學建置之「Cool English 英語線上學習平臺」(以下簡稱酷英),去(2022)年底在雲馥數位的技術支援下,率先全球導入微軟 Azure OpenAI 服務與微軟語音辨識及語音合成技術,開發 CoolE Bot 主題情境式英語聊天機器人,提供情境式對話環境,深化學習者英語口說能力,為全球首個使用 Azure OpenAI 服務的教育應用案例。 根據教育部與英國文化協會(British Council,BC)合作調查顯示,台灣學生英文表現有明顯落差,在「讀」、「聽」方面遠優於「寫」、「說」,因此口說能力成為英語教學側重之面向。教育部政務次長劉孟奇指出:「為落實 2030 雙語政策,政府積極推動各項措施,結合科技建置英語自主學習及檢測系統。此次酷英導入微軟 Azure OpenAI 服務,透過類真人的口語互動,開拓英語口說學習情境,提供學習者更即時且高度擬真的口語訓練資源。政府未來也將持續投注相關資源,充實學生英語口說能力,培育全方位雙語人才,提升年輕世代的全球競爭力。」 台灣微軟公共業務事業群總經理陳守正表示:「Azure OpenAI 服務正式推出後即受業界高度期待,此次微軟與夥伴雲馥數位合作,為酷英導入最新 OpenAI 服務,學習者可透過與 CoolE Bot 聊天機器人進行自然語言互動,充分活用語言學習資源,使英語教育更為普及。這是世界首個 Azure OpenAI 服務應用於教育領域之案例,於台灣及全球皆具指標意義。未來微軟亦將持續以堅實的 AI 及雲端技術賦能教育界,擴大英語數位學習綜效,進而實現雙語政策願景。」 藉由微軟完善的生態系資源及服務串接,酷英導入時下最熱門的 OpenAI 服務,開發 CoolE Bot 主題情境式英語聊天機器人,為平台加值英語口說訓練服務,進一步帶動學習成效。 CoolE Bot 採用 Azure OpenAI 服務中的自然語言模型,結合微軟語音辨識及語音合成技術,能理解真人口語的對話內容,並針對多元情境及不同階段之學習者,產出自然且符合其英語程度水準的回應;CoolE Bot 目前擁有三項主題及六款聊天機器人供不同程度的學習者使用,預期能協助平台約 130 萬名用戶厚植英語口說能力。未來,酷英規劃建置基於微軟語音辨識技術的輔助教學系統,針對學習者的發音、準確度、流暢度、完整性等進行評分並提供建議,增進英語口說學習效率。 此外,酷英亦針對國小、國中及高中學生規劃多元豐富之英語課程,涵蓋聽力、閱讀、寫作與翻譯、字彙/文法、遊戲、升學專區、競賽等內容,培養學生自主學習動機,並打破教學時地藩籬及資源落差,實踐政府普及英語教育目標。 Azure 是目前全球唯一提供 AI 超級電腦且具大規模擴充能力的公有雲平台,也是 OpenAI 獨家雲端供應商。Azure OpenAI 服務結合 OpenAI API 和 Azure 企業級雲端平台,能確保用戶在使用進階語言 AI 模型開發的同時,仍享有 Azure 高度安全性及企業承諾。台灣微軟技術中心雲端架構師黃耀逸分享,Azure OpenAI 強大的 GPT 語言模型,不僅能做到文件生成、潤飾、摘要、分類等任務,Azure OpenAI 服務更能輕鬆整合 Azure AI 視覺或聽覺服務,打造更完整而創新的 AI 使用者體驗,如更貼近使用者的客服機器人、更聰明的會議助理、或建立更強大的自然語言搜尋知識庫。 微軟期待透過 Azure OpenAI 服務協助企業落實及拓展創新服務,進而提升業務營運效率;目前該服務已逐步導入製造、零售、金融等產業,應用情境涵蓋工業元宇宙、智能客服、產品推薦等。未來微軟也將持續整合 OpenAI 技術,賦予微軟所有產品的人工智慧能力,點燃下一波人工智慧革命。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
友通將於Embedded World展示最新嵌入式產品和AIoT解決方案 聚焦AI邊緣商機
全球嵌入式主機板及工業電腦領導品牌友通資訊(2397),今年將於德國舉辦的Embedded World嵌入式電子與工業電腦應用展發表最新產品及AI嵌入式應用設備解決方案,展覽中的三大亮點包括推出搭載AMD Ryzen的1.8吋高效能工業主機板新一代產品、Intel最新平台的Raptor Lake- S及Alder Lake系列產品,以及攜手高通打造全球領先搭載QRB5165高效能處理器的工業主機板。友通本次攤位以智慧城市、智慧工廠、Industrial Pi、工業主板及強固產品做為五大邊緣運算主軸,展示多元應用領域的彈性客製化系統解決方案,並藉由人工智慧物聯網、工業物聯網與車聯網等技術,優化各項服務、聚焦AI邊緣商機。 友通總經理蘇家弘表示,活動攤位上會藉由模擬智慧城市與智慧工廠的環境帶出五大產品應用與技術,期待透過先進的嵌入式解決方案、技術趨勢與高效能平台,優化各項服務在物聯網應用中的發展。隨著AI、物聯網、大數據等科技快速進步,各產業的應用創意不斷浮現,帶動全球智慧化商機持續擴大,今年Embedded World 2023展場中,友通偕同多家合作夥伴展示多項邊緣運算產品與軟體虛擬化技術。 智慧城市因應國際疫情逐漸解封,全球各地面臨運輸提升的需求,因此基礎建設需透過自動化來提升公共安全,解決壅塞等問題;友通將展示多項路側及車側的Edge AI Box和T-Box等系統解決方案,並攜手合作夥伴VicOne與勝品電通(6556),分別導入網路安全(Cybersecutiry)技術及網路攝影機進行人臉辨識、人流計數監控,實際模擬智慧交通路口並架設智慧共桿(Smart Pole),有效利用AI運算和車聯網技術(C-V2X),解決交通擁塞、行人安全與智慧交通資安問題。 智慧工廠則仍是全球製造業發展焦點,除了攜手歐洲AMR廠商Autonomous Unit串聯場內自動化設備,由先進虛擬化軟硬體技術而打造的工作負載整合(Workload Consolidation)也為本次展出的重點之一;友通做為Intel®虛擬化技術驗證(Graphics SR-IOV)的全球首家合作夥伴,將在展場打造虛擬化環境,並同時執行工業自動化場域常見的應用,包含:外觀辨識、瑕疵檢測、與人體姿勢辨識來展示Intel SR-IOV技術所呈現的AI機器視覺解決方案。 Industrial Pi及工業級主機板的方面,友通繼推出全球首款AMD Ryzen R1000 的1.8吋微型高效能主機板GHF51後,將祭出新一代搭載AMD Ryzen R2000的全新產品PCSF51,其中CPU和GPU核心數量不但為上一代的兩倍,整體效能和圖形運算能力也分別提升50%、15%。基於過往客戶的需求,PCSF51產品設計上除了延續名片尺寸的微型化設計,更優化及提升散熱的技術,將散熱模組高度將低了4mm,再次展現友通產品研發優異的能力。此外,友通也將展出Intel®最新平台Raptor Lake-S高階IMB主板與Alder Lake全系列產品,並且不同效能的平台皆可應用於3.5吋的單板電腦(SBC)到ATX工業級主機板(IMB)。 最後在強固產品方面,友通將展示特殊環境場域的各式解決方案,以說明產品設計上優於業界的抗震、防水、防塵、寬溫壓的特色。 在全球工業自動化、數位轉型帶起的新基礎建設浪潮下,友通將攜手合作夥伴,持續研發及整合微型邊緣運算產品,共同為各場域應用提供最先進的嵌入式解決方案,成為企業OT智能化最佳夥伴以奠基未來。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
跨混合雲及多雲平台 Red Hat 與 NVIDIA 擴大合作 AI 與 5G 解決方案
世界領先開放原始碼軟體解決方案供應商 Red Hat 宣布與 NVIDIA 合作,為跨混合雲及多雲、符合產業標準的伺服器,提供無線接取網路(RAN)部署服務。無論在私有資料中心、多個公有雲,甚至網路邊緣支援 NVIDIA 聚合加速器和 NVIDIA Aerial SDK,都可透過業界領先企業級 Kubernetes 平台 Red Hat OpenShift,協助部署軟體定義 5G 虛擬無線接取網路(vRAN)及企業 AI 應用程式;客戶則可使用組合式基礎架構滿足邊緣運算、5G 專網、AI 等運算密集型應用程式的資料需求,同時獲得更高的靈活性和互通性、風控能力,快速取得投資報酬。 Red Hat 電信、媒體、娛樂暨邊緣生態系副總裁 Honoré LaBourdette 表示:「從 AI/ML 到邊緣運算以及先進軟體定義架構,新興技術持續驅動 5G 革新,因此現代網路更需要強大的協作生態系,提供領先功能、加速業務轉型以成就未來。藉由 Red Hat OpenShift 平台對 NVIDIA GPUs 及 NVIDIA Aeria SDK 的支援,企業能在混合和多雲環境中充分發揮 5G 驅動應用情境的潛力、在邊緣實踐全新服務和應用程式,推動快速轉型;開源創新即為一切的原動力。」 NVIDIA 電信資深副總裁 Ronnie Vashita 表示:「服務供應商必須採用雲端原生基礎架構,滿足 5G 和邊緣運算不斷增長的運算需求。整合 NVIDIA 聚合加速器的運算效能以及 Red Hat OpenShift,企業能在最佳解決方案中實現 5G RAN 和 AI 應用程式,應對現今與未來的應用情境。」 組合式基礎架構可減少對占空間的硬體和專用軟體需求,進而簡化資源並將現有 IT 環境最佳化。NVIDIA GPU、DPU 以及聚合加速器將 NVIDIA Ampere GPU 和 NVIDIA BlueField-2 整合至單一且高效能的套件。分解運算、儲存和網路資源可減輕傳統 CPU 負載,從而更快地處理封包,並透過隔離基礎架構較為繁重的任務,提供更完善的安全措施。 減少總體擁有成本(TCO)、降低與大規模部署和維護 RAN、AI 相關的整體系統成本 大幅加速在混合雲和多雲環境的網路部署,為多租用戶服務和 RAN 即服務(RAN-as-a-service)奠定基礎 組合式基礎架構可減少對專用硬體的需求,若與 Red Hat Enterprise Linux 搭配使用,還可提供低延遲性與增強一致性 數十億台裝置的連網能力,將 AI 功能和應用程式的覆蓋範圍擴充到所有邊緣裝置 在邊緣啟用 AI 和 ML,加速更多應用情境的開發,包括多接取邊緣運算(MEC)、自駕車、工業以及農業 NVIDIA Aerial 是一種應用程式框架,用於大規模建置高效能、軟體定義、雲端原生 5G RAN 應用程式,滿足不斷成長的消費者需求。除了 Red Hat OpenShift 和 Red Hat Enterprise Linux 之外,Red Hat Advanced Cluster Management for Kubernetes 和 Red Hat Advanced Cluster Security 也能在不影響效能的情況下,更有效地管理和保護其多叢集應用程式。服務供應商能有效滿足運算密集型應用程式的資料需求,同時確保安全能力和管理。 端對端網路軟體供應商 Mavenir 預計在未來一年透過 Red Hat 與 NVIDIA 技術實作其 AI-on-5G 解決方案。此預先封裝的網路解決方案旨在提供具分析功能的整合式單一虛擬管理平台(single pane of glass),促成 5G 專網無縫且具高成本效益的管理和營運。 Mavenir 執行副總裁、技術暨策略長 Bejoy Pankajakshan 表示:「Mavenir 正致力於打造網路的未來與開創先進技術,透過採用 NVIDIA GPU 和 Red Hat Kubernetes 驅動的開源技術建置我們的 AI on 5G 解決方案,Mavenir 整合式雲端原生 Open vRAN 解決方案將為各產業提供清晰的資料處理與分析、無縫且具高成本效益的管理,以及透過次世代、安全的 5G 專網統一檢視表(view)簡化營運。」 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
-
MWC 2023聚焦5G加速、元宇宙、AI領域 遠傳揪伴部署B5G發展
有「地表最大通訊展」之稱的「2023 世界行動通訊大會」(Mobile World Congress,MWC)於2/27起在西班牙巴塞隆納盛大登場,遠傳電信由總座井琪率領經營團隊前進MWC,參加這場全球通訊界年度盛事。疫後睽違三年重啟全實體展出的MWC 2023眾星雲集,遠傳透過與眾多國際電信巨擘、頂尖科技大廠深入交流,合力推動綠色網路、下一代技術合作,全力催生符合新世代消費者、企業客戶需求的最佳創新應用服務。 今年MWC除了聚焦5G加速、6G、元宇宙發展,勾勒未來通訊情境與技術需求,近期爆紅的聊天機器人ChatGPT 席捲全球帶動的AI應用浪潮,也成為各大廠爭相探索的火熱戰場。遠傳與愛立信攜手合作、首次亮相的最新黑科技「AI節能網路應用」,於展中大獲好評,總座井琪更接受愛立信的影音專訪,分享遠傳以AI打造綠色網路的秘訣。超吸睛「AI節能網路應用」可自動監測各站節能狀況、預測網路流量,並透過智慧演算法決定節能模式,在不影響用戶體驗、且沒有任何人工干預的前提下,平均節省25%能耗、部分時段更可節省高達46%能耗,是電信業邁向綠色網路、淨零碳排的關鍵應用! 遠傳積極推動5G進程,超前部署B5G(Beyond 5G) 、插旗下一代技術發展,於今年二月下旬宣布與愛立信簽訂「B5G AI 創新應用與永續網路合作備忘錄」(MOU), 雙方將深化B5G網路前瞻技術合作,共同探索三大面向,包含5G Advanced網路技術演進、以AI打造智慧節能網路,以及藉由開放「全球網路應用程式介面 (Application Programming Interface, API)」 推升遠傳新經濟成長。目標精進網路效能與用戶體驗,邁向淨零永續發展,成為消費者、企業客戶的最佳數位夥伴,加速全球產業創新升級。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】:
最多人點閱
- 「Intel Core Ultra 200S」CPU強勢來襲,史上最強「Intel第15代 研發代號 Arrow Lake」桌上型電腦處理器「台積電 TSMC 神隊友代工」LGA1851腳位「Core Ultra 5 245K/KF、Core Ultra 7 265K/KF、Core Ultra 9 285K處理器 與 Z890主機板」聯袂登場!
- AMD Ryzen 7 8700G實測開箱,Radeon 780M Graphics內顯與Ryzen AI火力加持「次世代1080p 遊戲 處理器」強勢來襲!
- Supermicro SUPERO X13SWA-TF實測開箱,史上最強「8+3+1+1共13相供電」Intel W790「AI加速 四組PCIe 5.0 x16雙插槽顯示卡擴充」 HEDT高階桌機工作站主機板!
- GIGABYTE Server MW83-RP0實測開箱,史上最強「8+3+1+1共13相供電」實戰Intel Xeon w9-3495x為終極效能而生「AI加速 四組PCIe 5.0 x16雙插槽顯示卡擴充」HEDT工作站主機板!
- Intel Xeon W-2400與W-3400處理器完全解密!研發代號Sapphire Rapids-WS與W790晶片組主機板 HEDT高階桌機工作站 LGA4677腳位 強大運算核心 正式登場,史上最強大24核心48執行緒Xeon w7-2495X 56核心112執行緒Xeon w9-3495X強勢來襲!
- AMD Ryzen Threadripper 7000 & Threadripper 7000 PRO處理器完全解密!史上最強HEDT TRX50高階桌機、Workstation WRX90工作站平台 提供最高64核心128執行緒7980X 96核心192執行緒7995WX 具備DDR5 R-DIMM、PCIe 5.0 x16與PCIe Gen 5 SSD超強戰鬥力!
- ASUS Pro WS W790-ACE實測開箱,史上最強「12+1+1共14相供電」Intel Xeon w9-3495X處理器最佳拍檔「AI加速 三組PCIe 5.0 x16雙插槽顯示卡擴充」HEDT工作站主機板!
- Intel Xeon w9-3495X實測開箱,史上最強56核心112執行緒 採用LGA4677腳位 對應W790主機板 次世代 HEDT高階桌機 工作站 處理器重裝上陣!
- 威剛ADATA DDR5-4800 256GB R-DIMM套裝(32GB x8)實測開箱,Intel W790伺服器級工作站主機板「八記憶體通道」PC DIY火力全開評測!
- 微星MPG B650 EDGE WIFI實測開箱,AMD B650玩家級主機板優質精品 feat. AMD Ryzen 5 8600G/ 7 8700G
- 金士頓Kingston FURY Renegade Pro DDR5-6000 128GB OC R-DIMM套裝(16GB x8)實測開箱,Intel W790伺服器級工作站主機板「八記憶體通道」PC DIY極速效能評測!
- AMD Ryzen Threadripper 7980X實測開箱,史上最強64核心128執行緒 採用sTR5腳位 對應TRX50、WRX90主機板 次世代 HEDT高階桌機處理器強勢登場!